In recent years, advances in deep learning have resulted in a plethora of successes in the use of reinforcement learning (RL) to solve complex sequential decision tasks with high-dimensional inputs. However, existing systems lack the necessary mechanisms to provide humans with a holistic view of their competence, presenting an impediment to their adoption, particularly in critical applications where the decisions an agent makes can have significant consequences. Yet, existing RL-based systems are essentially competency-unaware in that they lack the necessary interpretation mechanisms to allow human operators to have an insightful, holistic view of their competency. In this paper, we extend a recently-proposed framework for explainable RL that is based on analyses of "interestingness." Our new framework provides various measures of RL agent competence stemming from interestingness analysis and is applicable to a wide range of RL algorithms. We also propose novel mechanisms for assessing RL agents' competencies that: 1) identify agent behavior patterns and competency-controlling conditions by clustering agent behavior traces solely using interestingness data; and 2) identify the task elements mostly responsible for an agent's behavior, as measured through interestingness, by performing global and local analyses using SHAP values. Overall, our tools provide insights about RL agent competence, both their capabilities and limitations, enabling users to make more informed decisions about interventions, additional training, and other interactions in collaborative human-machine settings.
translated by 谷歌翻译
能够分析和量化人体或行为特征的系统(称为生物识别系统)正在使用和应用变异性增长。由于其从手工制作的功能和传统的机器学习转变为深度学习和自动特征提取,因此生物识别系统的性能增加到了出色的价值。尽管如此,这种快速进步的成本仍然尚不清楚。由于其不透明度,深层神经网络很难理解和分析,因此,由错误动机动机动机的隐藏能力或决定是潜在的风险。研究人员已经开始将注意力集中在理解深度神经网络及其预测的解释上。在本文中,我们根据47篇论文的研究提供了可解释生物识别技术的当前状态,并全面讨论了该领域的发展方向。
translated by 谷歌翻译
近年来,在可解释的AI中取得了重大进展,因为了解深度学习模型的需求已成为人们对AI的信任和道德规范的越来越重要的重要性。顺序决策任务的可理解模型是一个特殊的挑战,因为它们不仅需要了解个人预测,而且需要了解与环境动态相互作用的一系列预测。我们提出了一个框架,用于学习顺序决策任务的可理解模型,在该模型中,使用时间逻辑公式对代理策略进行表征。给定一组试剂痕迹,我们首先使用一种捕获频繁的动作模式的新型嵌入方法聚集痕迹。然后,我们搜索逻辑公式,以解释不同簇中的代理策略。我们使用手工制作的专家政策和受过训练的强化学习代理商的痕迹评估了《星际争霸II》(SC2)中战斗场景的框架。我们为SC2环境实现了一个功能提取器,该功能提取器将痕迹作为高级特征的序列,描述了环境状态和代理重播中代理的本地行为。我们进一步设计了一个可视化工具,描述了环境中单元的运动,这有助于了解不同的任务条件如何导致每个跟踪群集中不同的代理行为模式。实验结果表明,我们的框架能够将试剂痕迹分离为不同的行为群体,我们的战略推理方法会产生一致,有意义且易于理解的策略描述。
translated by 谷歌翻译
变形攻击是不断影响深度识别系统的众多威胁之一。它包括从不同个体中选择两张面,并将它们融合到包含两者的身份信息的最终图像中。在这项工作中,我们提出了一个新颖的正规化术语,该术语考虑了两者中存在的身份信息,并促进了两个正交潜在媒介的创建。我们在FRLL数据集中评估了我们提出的方法(Orthomad),并在五个不同的数据集中培训时评估了模型的性能。我们以小的RESNET-18为骨干,我们实现了大多数实验的最新结果,而竞争性则在其他实验中结果。本文的代码将公开可用。
translated by 谷歌翻译
本文介绍了基于2022年国际生物识别技术联合会议(IJCB 2022)举行的基于隐私感知合成训练数据(SYN-MAD)的面部变形攻击检测的摘要。该竞赛吸引了来自学术界和行业的12个参与团队,并在11个不同的国家 /地区举行。最后,参与团队提交了七个有效的意见书,并由组织者进行评估。竞争是为了介绍和吸引解决方案的解决方案,这些解决方案涉及检测面部变形攻击的同时,同时出于道德和法律原因保护人们的隐私。为了确保这一点,培训数据仅限于组织者提供的合成数据。提交的解决方案提出了创新,导致在许多实验环境中表现优于所考虑的基线。评估基准现在可在以下网址获得:https://github.com/marcohuber/syn-mad-2022。
translated by 谷歌翻译
这项工作总结了2022年2022年国际生物识别联合会议(IJCB 2022)的IJCB被遮挡的面部识别竞赛(IJCB-OCFR-2022)。OCFR-2022从学术界吸引了总共3支参与的团队。最终,提交了六个有效的意见书,然后由组织者评估。在严重的面部阻塞面前,举行了竞争是为了应对面部识别的挑战。参与者可以自由使用任何培训数据,并且通过使用众所周知的数据集构成面部图像的部分来构建测试数据。提交的解决方案提出了创新,并以所考虑的基线表现出色。这项竞争的主要输出是具有挑战性,现实,多样化且公开可用的遮挡面部识别基准,并具有明确的评估协议。
translated by 谷歌翻译
我们提出了一种新颖的生成方法,用于根据表征剂的行为的结果变量来生成强化学习(RL)剂的看不见和合理的反事实示例。我们的方法使用变异自动编码器来训练潜在空间,该空间共同编码与代理商行为有关的观测和结果变量的信息。反事实是使用该潜在空间中的遍历生成的,通过梯度驱动的更新以及对从示例池中抽出的情况进行的潜在插值生成。其中包括提高生成示例的可能性的更新,从而提高了产生的反事实的合理性。从三个RL环境中的实验中,我们表明这些方法产生的反事实是与纯粹的结果驱动或基于病例的基准相比,它们更合理且与其查询更接近。最后,我们表明,经过联合训练的潜在训练,可以重建输入观察结果和行为结果变量,从而在训练有素的潜在现象中产生更高质量的反事实,仅重建了观察输入。
translated by 谷歌翻译
演示攻击是对生物识别系统的经常性威胁,其中冒名顶替者试图绕过这些系统。人类经常使用背景信息作为视觉系统的上下文提示。然而,关于基于面部的系统,背景经常被丢弃,因为面部呈现攻击检测(PAD)模型主要用面部作物培训。这项工作介绍了两种设置中面板模型(包括多任务学习,对抗训练和动态帧选择)的比较研究:有和没有作物。结果表明,当图像中存在时,性能始终如一。所提出的多任务方法通过大型余量击败了玫瑰Youtu数据集的最先进的结果,其错误率为0.2%。此外,我们分析了Grad-Cam ++的模型预测,目的是调查模型对已知对人类检查有用的背景元素的程度。从这个分析来看,我们可以得出结论,背景线索在所有攻击中都不相关。因此,显示模型的能力仅在必要时利用背景信息。
translated by 谷歌翻译
SARS-COV-2向科学界提出了直接和间接的挑战。从大量国家的强制使用面部面具的强制使用最突出的间接挑战之一。面部识别方法在蒙版和未掩蔽的个体上努力执行具有类似准确性的身份验证。已经表明,这些方法的性能在面部掩模存在下显着下降,特别是如果参考图像是未被掩蔽的。我们提出了FocusFace,一种使用对比学习的多任务架构能够准确地执行蒙面的面部识别。该建议的架构被设计为从头开始训练或者在最先进的面部识别方法上工作,而不牺牲传统的面部识别任务中现有模型的能力。我们还探讨了设计对比学习模块的不同方法。结果以屏蔽掩蔽(M-M)和未掩蔽掩蔽(U-M)面验证性能提出。对于这两个设置,结果都与已发布的方法相提并论,但对于M-M而言,该方法能够优于与其比较的所有解决方案。我们进一步表明,当在现有方法顶部使用我们的方法时,培训计算成本在保持类似的表现时显着降低。在Github上提供了实施和培训的型号。
translated by 谷歌翻译
In the last years, the number of IoT devices deployed has suffered an undoubted explosion, reaching the scale of billions. However, some new cybersecurity issues have appeared together with this development. Some of these issues are the deployment of unauthorized devices, malicious code modification, malware deployment, or vulnerability exploitation. This fact has motivated the requirement for new device identification mechanisms based on behavior monitoring. Besides, these solutions have recently leveraged Machine and Deep Learning techniques due to the advances in this field and the increase in processing capabilities. In contrast, attackers do not stay stalled and have developed adversarial attacks focused on context modification and ML/DL evaluation evasion applied to IoT device identification solutions. This work explores the performance of hardware behavior-based individual device identification, how it is affected by possible context- and ML/DL-focused attacks, and how its resilience can be improved using defense techniques. In this sense, it proposes an LSTM-CNN architecture based on hardware performance behavior for individual device identification. Then, previous techniques have been compared with the proposed architecture using a hardware performance dataset collected from 45 Raspberry Pi devices running identical software. The LSTM-CNN improves previous solutions achieving a +0.96 average F1-Score and 0.8 minimum TPR for all devices. Afterward, context- and ML/DL-focused adversarial attacks were applied against the previous model to test its robustness. A temperature-based context attack was not able to disrupt the identification. However, some ML/DL state-of-the-art evasion attacks were successful. Finally, adversarial training and model distillation defense techniques are selected to improve the model resilience to evasion attacks, without degrading its performance.
translated by 谷歌翻译